字节跳动面试官:请你实现一个大文件上传和断点续传
| 12
 3
 
 | 前端:Vue@2 + Element-ui
 服务端:Nodejs@14 + multiparty
 
 | 
大文件上传
整体思路
前端
前端大文件上传网上的大部分文章已经给出了解决方案,核心是利用 Blob.prototype.slice 方法,和数组的 slice 方法相似,文件的 slice 方法可以返回原文件的某个切
预先定义好单个切片大小,将文件切分为一个个切片,然后借助 http 的可并发性,同时上传多个切片。这样从原本传一个大文件,变成了并发传多个小的文件切片,可以大大减少上传时间
另外由于是并发,传输到服务端的顺序可能会发生变化,因此我们还需要给每个切片记录顺序
服务端
服务端负责接受前端传输的切片,并在接收到所有切片后合并所有切片
这里又引伸出两个问题
何时合并切片,即切片什么时候传输完成
如何合并切片
第一个问题需要前端配合,前端在每个切片中都携带切片最大数量的信息,当服务端接受到这个数量的切片时自动合并。或者也可以额外发一个请求,主动通知服务端进行切片的合并
第二个问题,具体如何合并切片呢?这里可以使用 Nodejs 的 读写流(readStream/writeStream),将所有切片的流传输到最终文件的流里talk is cheap,show me the code,接着我们用代码实现上面的思路
前端部分
前端使用 Vue 作为开发框架,对界面没有太大要求,原生也可以,考虑到美观使用 Element-ui 作为 UI 框架
上传控件
首先创建选择文件的控件并监听 change 事件,另外就是上传按钮
| 12
 3
 4
 5
 6
 7
 8
 9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 
 | <template><div>
 <input type="file" @change="handleFileChange" />
 <el-button @click="handleUpload">upload</el-button>
 </div>
 </template>
 
 <script>
 export default {
 data: () => ({
 container: {
 file: null
 }
 }),
 methods: {
 handleFileChange(e) {
 const [file] = e.target.files;
 if (!file) return;
 Object.assign(this.$data, this.$options.data());
 this.container.file = file;
 },
 async handleUpload() {}
 }
 };
 </script>
 
 | 
请求逻辑
考虑到通用性,这里没有用第三方的请求库,而是用原生 XMLHttpRequest 做一层简单的封装来发请求
| 12
 3
 4
 5
 6
 7
 8
 9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 
 | request({url,
 method = "post",
 data,
 headers = {},
 requestList
 }) {
 return new Promise(resolve => {
 const xhr = new XMLHttpRequest();
 xhr.open(method, url);
 Object.keys(headers).forEach(key =>
 xhr.setRequestHeader(key, headers[key])
 );
 xhr.send(data);
 xhr.onload = e => {
 resolve({
 data: e.target.response
 });
 };
 });
 }
 
 | 
上传切片
接着实现比较重要的上传功能,上传需要做两件事
- 对文件进行切片
- 将切片传输给服务端| 12
 3
 4
 5
 6
 7
 8
 9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 28
 29
 30
 31
 32
 33
 34
 35
 36
 37
 38
 39
 40
 41
 42
 43
 44
 45
 46
 47
 48
 49
 50
 51
 52
 53
 54
 55
 56
 57
 58
 59
 60
 61
 62
 63
 64
 
 | <template><div>
 <input type="file" @change="handleFileChange" />
 <el-button @click="handleUpload">上传</el-button>
 </div>
 </template>
 
 <script>
 +
 +
 + const SIZE = 10 * 1024 * 1024;
 
 export default {
 data: () => ({
 container: {
 file: null
 },
 +   data: []
 }),
 methods: {
 request() {},
 handleFileChange() {},
 +
 +    createFileChunk(file, size = SIZE) {
 +     const fileChunkList = [];
 +      let cur = 0;
 +      while (cur < file.size) {
 +        fileChunkList.push({ file: file.slice(cur, cur + size) });
 +        cur += size;
 +      }
 +      return fileChunkList;
 +    },
 +
 +    async uploadChunks() {
 +      const requestList = this.data
 +        .map(({ chunk,hash }) => {
 +          const formData = new FormData();
 +          formData.append("chunk", chunk);
 +          formData.append("hash", hash);
 +          formData.append("filename", this.container.file.name);
 +          return { formData };
 +        })
 +        .map(({ formData }) =>
 +          this.request({
 +            url: "http://localhost:3000",
 +            data: formData
 +          })
 +        );
 +
 +      await Promise.all(requestList);
 +    },
 +    async handleUpload() {
 +      if (!this.container.file) return;
 +      const fileChunkList = this.createFileChunk(this.container.file);
 +      this.data = fileChunkList.map(({ file },index) => ({
 +        chunk: file,
 +
 +        hash: this.container.file.name + "-" + index
 +      }));
 +      await this.uploadChunks();
 +    }
 }
 };
 </script>
 
 |  
 
createFileChunk 内使用 while 循环和 slice 方法将切片放入 fileChunkList 数组中返回
在生成文件切片时,需要给每个切片一个标识作为 hash,这里暂时使用文件名 + 下标,这样后端可以知道当前切片是第几个切片,用于之后的合并切片
随后调用 uploadChunks 上传所有的文件切片,将文件切片,切片 hash,以及文件名放入 formData 中,再调用上一步的 request 函数返回一个 proimise,最后调用 Promise.all 并发上传所有的切片
发送合并请求
使用整体思路中提到的第二种合并切片的方式,即前端主动通知服务端进行合并
前端发送额外的合并请求,服务端接受到请求时合并切片
| 12
 3
 4
 5
 6
 7
 8
 9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 28
 29
 30
 31
 32
 33
 34
 35
 36
 37
 38
 39
 40
 41
 42
 43
 44
 45
 46
 47
 48
 49
 50
 51
 52
 53
 
 | <template><div>
 <input type="file" @change="handleFileChange" />
 <el-button @click="handleUpload">upload</el-button>
 </div>
 </template>
 
 <script>
 export default {
 data: () => ({
 container: {
 file: null
 },
 data: []
 }),
 methods: {
 request() {},
 handleFileChange() {},
 createFileChunk() {},
 async uploadChunks() {
 const requestList = this.data
 .map(({ chunk,hash }) => {
 const formData = new FormData();
 formData.append("chunk", chunk);
 formData.append("hash", hash);
 formData.append("filename", this.container.file.name);
 return { formData };
 })
 .map(({ formData }) =>
 this.request({
 url: "http://localhost:3000",
 data: formData
 })
 );
 await Promise.all(requestList);
 +
 +     await this.mergeRequest();
 },
 +    async mergeRequest() {
 +      await this.request({
 +        url: "http://localhost:3000/merge",
 +        headers: {
 +          "content-type": "application/json"
 +        },
 +        data: JSON.stringify({
 +          filename: this.container.file.name
 +        })
 +      });
 +    },
 async handleUpload() {}
 }
 };
 </script>
 
 | 
服务端部分
使用 http 模块搭建一个简单服务端
| 12
 3
 4
 5
 6
 7
 8
 9
 10
 11
 12
 13
 14
 
 | const http = require("http");const server = http.createServer();
 
 server.on("request", async (req, res) => {
 res.setHeader("Access-Control-Allow-Origin", "*");
 res.setHeader("Access-Control-Allow-Headers", "*");
 if (req.method === "OPTIONS") {
 res.status = 200;
 res.end();
 return;
 }
 });
 
 server.listen(3000, () => console.log("listening port 3000"));
 
 | 
接受切片
使用 multiparty 处理前端传来的 formData
在 multiparty.parse 的回调中,files 参数保存了 formData 中文件,fields 参数保存了 formData 中非文件的字段
| 12
 3
 4
 5
 6
 7
 8
 9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 28
 29
 30
 31
 32
 33
 34
 35
 36
 37
 38
 39
 40
 41
 42
 43
 
 | const http = require("http");const path = require("path");
 + const fse = require("fs-extra");
 + const multiparty = require("multiparty");
 
 const server = http.createServer();
 +
 + const UPLOAD_DIR = path.resolve(__dirname, "..", "target");
 
 server.on("request", async (req, res) => {
 res.setHeader("Access-Control-Allow-Origin", "*");
 res.setHeader("Access-Control-Allow-Headers", "*");
 if (req.method === "OPTIONS") {
 res.status = 200;
 res.end();
 return;
 }
 
 +  const multipart = new multiparty.Form();
 
 +  multipart.parse(req, async (err, fields, files) => {
 +    if (err) {
 +      return;
 +    }
 +    const [chunk] = files.chunk;
 +    const [hash] = fields.hash;
 +    const [filename] = fields.filename;
 +
 +
 +    const chunkDir = path.resolve(UPLOAD_DIR, 'chunkDir' + filename);
 
 +    if (!fse.existsSync(chunkDir)) {
 +      await fse.mkdirs(chunkDir);
 +    }
 
 +
 +
 +    await fse.move(chunk.path, `${chunkDir}/${hash}`);
 +    res.end("received file chunk");
 +  });
 });
 
 server.listen(3000, () => console.log("listening port 3000"));
 
 | 
查看 multiparty 处理后的 chunk 对象,path 是存储临时文件的路径,size 是临时文件大小,在 multiparty 文档中提到可以使用 fs.rename(这里换成了 fs.remove, 因为 fs-extra 的 rename 方法在 windows 平台存在权限问题)
在接受文件切片时,需要先创建临时存储切片的文件夹,以 chunkDir 作为前缀,文件名作为后缀
由于前端在发送每个切片时额外携带了唯一值 hash,所以以 hash 作为文件名,将切片从临时路径移动切片文件夹中,最后的结果如下
合并切片
在接收到前端发送的合并请求后,服务端将文件夹下的所有切片进行合并
| 12
 3
 4
 5
 6
 7
 8
 9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 28
 29
 30
 31
 32
 33
 34
 35
 36
 37
 38
 39
 40
 41
 42
 43
 44
 45
 46
 47
 48
 49
 50
 51
 52
 53
 54
 55
 56
 57
 58
 59
 60
 61
 62
 63
 64
 65
 66
 67
 68
 69
 70
 71
 72
 73
 74
 75
 76
 77
 
 | const http = require("http");const path = require("path");
 const fse = require("fs-extra");
 
 const server = http.createServer();
 const UPLOAD_DIR = path.resolve(__dirname, "..", "target");
 
 + const resolvePost = req =>
 +   new Promise(resolve => {
 +     let chunk = "";
 +     req.on("data", data => {
 +       chunk += data;
 +     });
 +     req.on("end", () => {
 +       resolve(JSON.parse(chunk));
 +     });
 +   });
 
 +
 + const pipeStream = (path, writeStream) =>
 +  new Promise(resolve => {
 +    const readStream = fse.createReadStream(path);
 +    readStream.on("end", () => {
 +      fse.unlinkSync(path);
 +      resolve();
 +    });
 +    readStream.pipe(writeStream);
 +  });
 
 
 + const mergeFileChunk = async (filePath, filename, size) => {
 +   const chunkDir = path.resolve(UPLOAD_DIR, 'chunkDir' + filename);
 +   const chunkPaths = await fse.readdir(chunkDir);
 +
 +
 +   chunkPaths.sort((a, b) => a.split("-")[1] - b.split("-")[1]);
 +
 +   await Promise.all(
 +     chunkPaths.map((chunkPath, index) =>
 +       pipeStream(
 +         path.resolve(chunkDir, chunkPath),
 +
 +         fse.createWriteStream(filePath, {
 +           start: index * size,
 +         })
 +       )
 +     )
 +  );
 +
 +  fse.rmdirSync(chunkDir);
 +};
 
 server.on("request", async (req, res) => {
 res.setHeader("Access-Control-Allow-Origin", "*");
 res.setHeader("Access-Control-Allow-Headers", "*");
 if (req.method === "OPTIONS") {
 res.status = 200;
 res.end();
 return;
 }
 
 +   if (req.url === "/merge") {
 +     const data = await resolvePost(req);
 +     const { filename,size } = data;
 +     const filePath = path.resolve(UPLOAD_DIR, `${filename}`);
 +     await mergeFileChunk(filePath, filename);
 +     res.end(
 +       JSON.stringify({
 +         code: 0,
 +         message: "file merged success"
 +       })
 +     );
 +   }
 
 });
 
 server.listen(3000, () => console.log("listening port 3000"));
 
 | 
由于前端在发送合并请求时会携带文件名,服务端根据文件名可以找到上一步创建的切片文件夹
接着使用 fs.createWriteStream 创建一个可写流,可写流文件名就是上传时的文件名
随后遍历整个切片文件夹,将切片通过 fs.createReadStream 创建可读流,传输合并到目标文件中
值得注意的是每次可读流都会传输到可写流的指定位置,这是通过 createWriteStream 的第二个参数 start 控制的,目的是能够并发合并多个可读流至可写流中,这样即使并发时流的顺序不同,也能传输到正确的位置
所以还需要让前端在请求的时候提供之前设定好的 size 给服务端,服务端根据 size 指定可读流的起始位置
| 12
 3
 4
 5
 6
 7
 8
 9
 10
 11
 12
 
 |    async mergeRequest() {await this.request({
 url: "http://localhost:3000/merge",
 headers: {
 "content-type": "application/json"
 },
 data: JSON.stringify({
 +         size: SIZE,
 filename: this.container.file.name
 })
 });
 },
 
 | 
其实也可以等上一个切片合并完后再合并下个切片,这样就不需要指定位置,但传输速度会降低,所以使用了并发合并的手段
接着只要保证每次合并完成后删除这个切片,等所有切片都合并完毕后最后删除切片文件夹即可
显示上传进度条
上传进度分两种,一个是每个切片的上传进度,另一个是整个文件的上传进度,而整个文件的上传进度是基于每个切片上传进度计算而来,所以我们先实现单个切片的进度条
单个切片进度条
XMLHttpRequest 原生支持上传进度的监听,只需要监听 upload.onprogress 即可,我们在原来的 request 基础上传入 onProgress 参数,给 XMLHttpRequest 注册监听事件
| 12
 3
 4
 5
 6
 7
 8
 9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 
 |  request({
 url,
 method = "post",
 data,
 headers = {},
 +     onProgress = e => e,
 requestList
 }) {
 return new Promise(resolve => {
 const xhr = new XMLHttpRequest();
 +       xhr.upload.onprogress = onProgress;
 xhr.open(method, url);
 Object.keys(headers).forEach(key =>
 xhr.setRequestHeader(key, headers[key])
 );
 xhr.send(data);
 xhr.onload = e => {
 resolve({
 data: e.target.response
 });
 };
 });
 }
 
 | 
由于每个切片都需要触发独立的监听事件,所以需要一个工厂函数,根据传入的切片返回不同的监听函数
在原先的前端上传逻辑中新增监听函数部分
| 12
 3
 4
 5
 6
 7
 8
 9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 28
 29
 30
 31
 32
 33
 34
 35
 36
 
 |     async uploadChunks(uploadedList = []) {
 const requestList = this.data
 +       .map(({ chunk,hash,index }) => {
 const formData = new FormData();
 formData.append("chunk", chunk);
 formData.append("hash", hash);
 formData.append("filename", this.container.file.name);
 +         return { formData,index };
 })
 +       .map(({ formData,index }) =>
 this.request({
 url: "http://localhost:3000",
 data: formData,
 +           onProgress: this.createProgressHandler(this.data[index]),
 })
 );
 await Promise.all(requestList);
 await this.mergeRequest();
 },
 async handleUpload() {
 if (!this.container.file) return;
 const fileChunkList = this.createFileChunk(this.container.file);
 this.data = fileChunkList.map(({ file },index) => ({
 chunk: file,
 +       index,
 hash: this.container.file.name + "-" + index
 +       percentage:0
 }));
 await this.uploadChunks();
 }
 +   createProgressHandler(item) {
 +      return e => {
 +        item.percentage = parseInt(String((e.loaded / e.total) * 100));
 +      };
 +   }
 
 | 
每个切片在上传时都会通过监听函数更新 data 数组对应元素的 percentage 属性,之后把将 data 数组放到视图中展示即可
总进度条
将每个切片已上传的部分累加,除以整个文件的大小,就能得出当前文件的上传进度,所以这里使用 Vue 的计算属性
| 12
 3
 4
 5
 6
 7
 8
 9
 
 |  computed: {uploadPercentage() {
 if (!this.container.file || !this.data.length) return 0;
 const loaded = this.data
 .map(item => item.size * item.percentage)
 .reduce((acc, cur) => acc + cur);
 return parseInt((loaded / this.container.file.size).toFixed(2));
 }
 }
 
 | 
断点续传
断点续传的原理在于前端/服务端需要记住已上传的切片,这样下次上传就可以跳过之前已上传的部分,有两种方案实现记忆的功能
前端使用 localStorage 记录已上传的切片 hash
服务端保存已上传的切片 hash,前端每次上传前向服务端获取已上传的切片
第一种是前端的解决方案,第二种是服务端,而前端方案有一个缺陷,如果换了个浏览器就失去了记忆的效果,所以这里选后者
生成 hash
无论是前端还是服务端,都必须要生成文件和切片的 hash,之前我们使用文件名 + 切片下标作为切片 hash,这样做文件名一旦修改就失去了效果,而事实上只要文件内容不变,hash 就不应该变化,所以正确的做法是根据文件内容生成 hash,所以我们修改一下 hash 的生成规则
webpack 的产物 contenthash 也是基于这个思路实现的
这里用到另一个库 spark-md5,它可以根据文件内容计算出文件的 hash 值
另外考虑到如果上传一个超大文件,读取文件内容计算 hash 是非常耗费时间的,并且会引起 UI 的阻塞,导致页面假死状态,所以我们使用 web-worker 在 worker 线程计算 hash,这样用户仍可以在主界面正常的交互
由于实例化 web-worker 时,参数是一个 js 文件路径且不能跨域,所以我们单独创建一个 hash.js 文件放在 public 目录下,另外在 worker 中也是不允许访问 dom 的,但它提供了importScripts 函数用于导入外部脚本,通过它导入 spark-md5
| 12
 3
 4
 5
 6
 7
 8
 9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 28
 29
 30
 31
 32
 33
 34
 35
 
 | 
 
 self.importScripts("/spark-md5.min.js");
 
 
 self.onmessage = e => {
 const { fileChunkList } = e.data;
 const spark = new self.SparkMD5.ArrayBuffer();
 let percentage = 0;
 let count = 0;
 const loadNext = index => {
 const reader = new FileReader();
 reader.readAsArrayBuffer(fileChunkList[index].file);
 reader.onload = e => {
 count++;
 spark.append(e.target.result);
 if (count === fileChunkList.length) {
 self.postMessage({
 percentage: 100,
 hash: spark.end()
 });
 self.close();
 } else {
 percentage += 100 / fileChunkList.length;
 self.postMessage({
 percentage
 });
 
 loadNext(count);
 }
 };
 };
 loadNext(0);
 };
 
 | 
在 worker 线程中,接受文件切片 fileChunkList,利用 fileReader 读取每个切片的 ArrayBuffer 并不断传入 spark-md5 中,每计算完一个切片通过 postMessage 向主线程发送一个进度事件,全部完成后将最终的 hash 发送给主线程
spark-md5 文档中要求传入所有切片并算出 hash 值,不能直接将整个文件放入计算,否则即使不同文件也会有相同的 hash
接着编写主线程与 worker 线程通讯的逻辑
| 12
 3
 4
 5
 6
 7
 8
 9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 
 | +    +    calculateHash(fileChunkList) {
 +      return new Promise(resolve => {
 +
 +        this.container.worker = new Worker("/hash.js");
 +        this.container.worker.postMessage({ fileChunkList });
 +        this.container.worker.onmessage = e => {
 +          const { percentage, hash } = e.data;
 +          this.hashPercentage = percentage;
 +          if (hash) {
 +            resolve(hash);
 +          }
 +        };
 +      });
 },
 async handleUpload() {
 if (!this.container.file) return;
 const fileChunkList = this.createFileChunk(this.container.file);
 +     this.container.hash = await this.calculateHash(fileChunkList);
 this.data = fileChunkList.map(({ file },index) => ({
 +       fileHash: this.container.hash,
 chunk: file,
 hash: this.container.file.name + "-" + index,
 percentage:0
 }));
 await this.uploadChunks();000
 }
 
 | 
主线程使用 postMessage 给 worker 线程传入所有切片 fileChunkList,并监听 worker 线程发出的 postMessage 事件拿到文件 hash
加上显示计算 hash 的进度条,看起来像这样
至此前端需要将之前用文件名作为 hash 的地方改写为 worker 返回的 hash
服务端则使用固定前缀 + hash 作为切片文件夹名,hash + 下标作为切片名,hash + 扩展名作为文件名
文件秒传
在实现断点续传前先简单介绍一下文件秒传
所谓的文件秒传,即在服务端已经存在了上传的资源,所以当用户再次上传时会直接提示上传成功
文件秒传需要依赖上一步生成的 hash,即在上传前,先计算出文件 hash,并把 hash 发送给服务端进行验证,由于 hash 的唯一性,所以一旦服务端能找到 hash 相同的文件,则直接返回上传成功的信息即可
| 12
 3
 4
 5
 6
 7
 8
 9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 28
 29
 30
 31
 32
 33
 34
 
 | +    async verifyUpload(filename, fileHash) {+       const { data } = await this.request({
 +         url: "http://localhost:3000/verify",
 +         headers: {
 +           "content-type": "application/json"
 +         },
 +         data: JSON.stringify({
 +           filename,
 +           fileHash
 +         })
 +       });
 +       return JSON.parse(data);
 +     },
 async handleUpload() {
 if (!this.container.file) return;
 const fileChunkList = this.createFileChunk(this.container.file);
 this.container.hash = await this.calculateHash(fileChunkList);
 +     const { shouldUpload } = await this.verifyUpload(
 +       this.container.file.name,
 +       this.container.hash
 +     );
 +     if (!shouldUpload) {
 +       this.$message.success("skip upload:file upload success");
 +       return;
 +    }
 this.data = fileChunkList.map(({ file }, index) => ({
 fileHash: this.container.hash,
 index,
 hash: this.container.hash + "-" + index,
 chunk: file,
 percentage: 0
 }));
 await this.uploadChunks();
 }
 
 | 
秒传其实就是给用户看的障眼法,实质上根本没有上传
服务端的逻辑非常简单,新增一个验证接口,验证文件是否存在即可
| 12
 3
 4
 5
 6
 7
 8
 9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 28
 29
 30
 31
 32
 33
 34
 35
 36
 37
 38
 39
 
 | + + const extractExt = filename =>
 +  filename.slice(filename.lastIndexOf("."), filename.length);
 const UPLOAD_DIR = path.resolve(__dirname, "..", "target");
 
 const resolvePost = req =>
 new Promise(resolve => {
 let chunk = "";
 req.on("data", data => {
 chunk += data;
 });
 req.on("end", () => {
 resolve(JSON.parse(chunk));
 });
 });
 
 server.on("request", async (req, res) => {
 if (req.url === "/verify") {
 +    const data = await resolvePost(req);
 +    const { fileHash, filename } = data;
 +    const ext = extractExt(filename);
 +    const filePath = path.resolve(UPLOAD_DIR, `${fileHash}${ext}`);
 +    if (fse.existsSync(filePath)) {
 +      res.end(
 +        JSON.stringify({
 +          shouldUpload: false
 +        })
 +      );
 +    } else {
 +      res.end(
 +        JSON.stringify({
 +          shouldUpload: true
 +        })
 +      );
 +    }
 }
 });
 
 server.listen(3000, () => console.log("listening port 3000"));
 
 | 
暂停上传
讲完了生成 hash 和文件秒传,回到断点续传
断点续传顾名思义即断点 + 续传,所以我们第一步先实现“断点”,也就是暂停上传
原理是使用 XMLHttpRequest 的 abort 方法,可以取消一个 xhr 请求的发送,为此我们需要将上传每个切片的 xhr 对象保存起来,我们再改造一下 request 方法
| 12
 3
 4
 5
 6
 7
 8
 9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 28
 29
 30
 
 | request({url,
 method = "post",
 data,
 headers = {},
 onProgress = e => e,
 +     requestList
 }) {
 return new Promise(resolve => {
 const xhr = new XMLHttpRequest();
 xhr.upload.onprogress = onProgress;
 xhr.open(method, url);
 Object.keys(headers).forEach(key =>
 xhr.setRequestHeader(key, headers[key])
 );
 xhr.send(data);
 xhr.onload = e => {
 +
 +          if (requestList) {
 +            const xhrIndex = requestList.findIndex(item => item === xhr);
 +            requestList.splice(xhrIndex, 1);
 +          }
 resolve({
 data: e.target.response
 });
 };
 +
 +        requestList?.push(xhr);
 });
 },
 
 | 
这样在上传切片时传入 requestList 数组作为参数,request 方法就会将所有的 xhr 保存在数组中了
每当一个切片上传成功时,将对应的 xhr 从 requestList 中删除,所以 requestList 中只保存正在上传切片的 xhr
之后新建一个暂停按钮,当点击按钮时,调用保存在 requestList 中 xhr 的 abort 方法,即取消并清空所有正在上传的切片
| 12
 3
 4
 
 | handlePause() {this.requestList.forEach(xhr => xhr?.abort());
 this.requestList = [];
 }
 
 | 
点击暂停按钮可以看到 xhr 都被取消了
恢复上传
之前在介绍断点续传的时提到使用第二种服务端存储的方式实现续传
由于当文件切片上传后,服务端会建立一个文件夹存储所有上传的切片,所以每次前端上传前可以调用一个接口,服务端将已上传的切片的切片名返回,前端再跳过这些已经上传切片,这样就实现了“续传”的效果
而这个接口可以和之前秒传的验证接口合并,前端每次上传前发送一个验证的请求,返回两种结果
- 服务端已存在该文件,不需要再次上传
- 服务端不存在该文件或者已上传部分文件切片,通知前端进行上传,并把已上传的文件切片返回给前端
 所以我们改造一下之前文件秒传的服务端验证接口| 12
 3
 4
 5
 6
 7
 8
 9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 28
 29
 30
 31
 32
 33
 34
 35
 36
 37
 38
 39
 40
 41
 42
 43
 44
 45
 
 | const extractExt = filename =>filename.slice(filename.lastIndexOf("."), filename.length);
 const UPLOAD_DIR = path.resolve(__dirname, "..", "target");
 
 const resolvePost = req =>
 new Promise(resolve => {
 let chunk = "";
 req.on("data", data => {
 chunk += data;
 });
 req.on("end", () => {
 resolve(JSON.parse(chunk));
 });
 });
 
 +
 + const createUploadedList = async fileHash =>
 +   fse.existsSync(path.resolve(UPLOAD_DIR, fileHash))
 +    ? await fse.readdir(path.resolve(UPLOAD_DIR, fileHash))
 +    : [];
 
 server.on("request", async (req, res) => {
 if (req.url === "/verify") {
 const data = await resolvePost(req);
 const { fileHash, filename } = data;
 const ext = extractExt(filename);
 const filePath = path.resolve(UPLOAD_DIR, `${fileHash}${ext}`);
 if (fse.existsSync(filePath)) {
 res.end(
 JSON.stringify({
 shouldUpload: false
 })
 );
 } else {
 res.end(
 JSON.stringify({
 shouldUpload: true,
 +         uploadedList: await createUploadedList(fileHash)
 })
 );
 }
 }
 });
 
 server.listen(3000, () => console.log("listening port 3000"));
 
 |  
 
点击上传时,检查是否需要上传和已上传的切片
点击暂停后的恢复上传,返回已上传的切片
新增恢复按钮并改造原来上传切片的逻辑
| 12
 3
 4
 5
 6
 7
 8
 9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 28
 29
 30
 31
 32
 33
 34
 35
 36
 37
 38
 39
 40
 41
 42
 43
 44
 45
 46
 47
 48
 49
 50
 51
 52
 53
 54
 55
 56
 57
 58
 59
 60
 61
 62
 63
 64
 65
 66
 67
 
 | <template><div id="app">
 <input
 type="file"
 @change="handleFileChange"
 />
 <el-button @click="handleUpload">upload</el-button>
 <el-button @click="handlePause" v-if="isPaused">pause</el-button>
 +      <el-button @click="handleResume" v-else>resume</el-button>
 
 </div>
 </template>
 
 +   async handleResume() {
 +      const { uploadedList } = await this.verifyUpload(
 +        this.container.file.name,
 +        this.container.hash
 +      );
 +      await this.uploadChunks(uploadedList);
 },
 async handleUpload() {
 if (!this.container.file) return;
 const fileChunkList = this.createFileChunk(this.container.file);
 this.container.hash = await this.calculateHash(fileChunkList);
 +     const { shouldUpload, uploadedList } = await this.verifyUpload(
 +       this.container.file.name,
 +       this.container.hash
 +     );
 +     if (!shouldUpload) {
 +       this.$message.success("skip upload:file upload success");
 +       return;
 +     }
 this.data = fileChunkList.map(({ file }, index) => ({
 fileHash: this.container.hash,
 index,
 hash: this.container.hash + "-" + index,
 chunk: file,
 percentage: 0
 }));
 +      await this.uploadChunks(uploadedList);
 },
 
 +   async uploadChunks(uploadedList = []) {
 const requestList = this.data
 +       .filter(({ hash }) => !uploadedList.includes(hash))
 .map(({ chunk, hash, index }) => {
 const formData = new FormData();
 formData.append("chunk", chunk);
 formData.append("hash", hash);
 formData.append("filename", this.container.file.name);
 formData.append("fileHash", this.container.hash);
 return { formData, index };
 })
 .map(({ formData, index }) =>
 this.request({
 url: "http://localhost:3000",
 data: formData,
 onProgress: this.createProgressHandler(this.data[index]),
 requestList: this.requestList
 })
 );
 await Promise.all(requestList);
 +
 +     if (uploadedList.length + requestList.length === this.data.length) {
 await this.mergeRequest();
 +     }
 }
 
 | 
这里给原来上传切片的函数新增 uploadedList 参数,即上图中服务端返回的切片名列表,通过 filter 过滤掉已上传的切片,并且由于新增了已上传的部分,所以之前合并接口的触发条件做了一些改动
到这里断点续传的功能基本完成了
进度条改进
虽然实现了断点续传,但还需要修改一下进度条的显示规则,否则在暂停上传/接收到已上传切片时的进度条会出现偏差
单个切片进度条
由于在点击上传/恢复上传时,会调用验证接口返回已上传的切片,所以需要将已上传切片的进度变成 100%
| 12
 3
 4
 5
 6
 7
 8
 9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 
 |    async handleUpload() {if (!this.container.file) return;
 const fileChunkList = this.createFileChunk(this.container.file);
 this.container.hash = await this.calculateHash(fileChunkList);
 const { shouldUpload, uploadedList } = await this.verifyUpload(
 this.container.file.name,
 this.container.hash
 );
 if (!shouldUpload) {
 this.$message.success("skip upload:file upload success");
 return;
 }
 this.data = fileChunkList.map(({ file }, index) => ({
 fileHash: this.container.hash,
 index,
 hash: this.container.hash + "-" + index,
 chunk: file,
 +       percentage: uploadedList.includes(index) ? 100 : 0
 }));
 await this.uploadChunks(uploadedList);
 },
 
 | 
uploadedList 会返回已上传的切片,在遍历所有切片时判断当前切片是否在已上传列表里即可
总进度条
之前说到总进度条是一个计算属性,根据所有切片的上传进度计算而来,这就遇到了一个问题
点击暂停会取消并清空切片的 xhr 请求,此时如果已经上传了一部分,就会发现文件进度条有倒退的现象
当点击恢复时,由于重新创建了 xhr 导致切片进度清零,所以总进度条就会倒退
解决方案是创建一个“假”的进度条,这个假进度条基于文件进度条,但只会停止和增加,然后给用户展示这个假的进度条
这里我们使用 Vue 的监听属性
| 12
 3
 4
 5
 6
 7
 8
 9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 
 |  data: () => ({+    fakeUploadPercentage: 0
 }),
 computed: {
 uploadPercentage() {
 if (!this.container.file || !this.data.length) return 0;
 const loaded = this.data
 .map(item => item.size * item.percentage)
 .reduce((acc, cur) => acc + cur);
 return parseInt((loaded / this.container.file.size).toFixed(2));
 }
 },
 watch: {
 +    uploadPercentage(now) {
 +      if (now > this.fakeUploadPercentage) {
 +        this.fakeUploadPercentage = now;
 +      }
 }
 },
 
 | 
当 uploadPercentage 即真的文件进度条增加时,fakeUploadPercentage 也增加,一旦文件进度条后退,假的进度条只需停止即可
至此一个大文件上传 + 断点续传的解决方案就完成了
总结
大文件上传
- 前端上传大文件时使用 Blob.prototype.slice 将文件切片,并发上传多个切片,最后发送一个合并的请求通知服务端合并切片
- 服务端接收切片并存储,收到合并请求后使用流将切片合并到最终文件
- 原生 XMLHttpRequest 的 upload.onprogress 对切片上传进度的监听
- 使用 Vue 计算属性根据每个切片的进度算出整个文件的上传进度
断点续传
- 使用 spark-md5 根据文件内容算出文件 hash
- 通过 hash 可以判断服务端是否已经上传该文件,从而直接提示用户上传成功(秒传)
- 通过 XMLHttpRequest 的 abort 方法暂停切片的上传
- 上传前服务端返回已经上传的切片名,前端跳过这些切片的上传大文件上传,使用切片上传形式,支持上传、暂停、续传你怎么实现的?
1. 发现问题
如果前端不使用大文件上传,可能会导致以下问题:
- 用户体验下降:如果用户需要上传较大的文件,而前端没有实现大文件上传功能,那么用户上传文件的速度将受到较大的限制,可能需要等待较长的时间,这将导致用户体验下降。 
- 网络带宽消耗过大:如果前端没有实现大文件上传功能,那么上传一个大文件将会占用较多的网络带宽,这可能会影响其他用户的网络使用,尤其是在网络资源有限的情况下。 
- 上传失败的风险增加:如果前端没有实现大文件上传功能,那么上传一个大文件的失败概率将会增加。这是因为在上传较大的文件时,一旦上传失败,需要重新上传整个文件,这将会浪费大量时间和网络资源。 
因此,为了提高用户体验,减少网络资源占用和降低上传失败的风险,前端需要实现大文件上传功能。
大文件上传(原理 ->实现思路)
- 前端上传大文件时使用 Blob.prototype.slice 将文件切片,并发上传多个切片,最后发送一个合并的请求通知服务端合并切片
预先定义好单个切片大小,将文件切分为一个个切片,然后借助 http 的可并发性,同时上传多个切片。这样从原本传一个大文件,变成了并发传多个小的文件切片,可以大大减少上传时间.—(HTTP 的可并发性指的是在同一时间内可以同时处理多个 HTTP 请求。HTTP 是一种无状态的协议,每个请求之间都是相互独立的。因此,HTTP 协议天生就具备可并发性,允许客户端在同一时间内向服务器发起多个请求,而服务器也可以同时处理多个请求。)
另外由于是并发,传输到服务端的顺序可能会发生变化,因此我们还需要给每个切片记录顺序
- 详细
 (当点击上传按钮时,调用 createFileChunk 将文件切片,切片数量通过文件大小控制,这里设置 10MB,也就是说一个 100 MB 的文件会被分成 10 个 10MB 的切片
 createFileChunk 内使用 while 循环和 slice 方法将切片放入 fileChunkList 数组中返回
在生成文件切片时,需要给每个切片一个标识作为 hash,这里暂时使用文件名 + 下标,这样后端可以知道当前切片是第几个切片,用于之后的合并切片
随后调用 uploadChunks 上传所有的文件切片,将文件切片,切片 hash,以及文件名放入 formData 中,再调用上一步的 request 函数返回一个 proimise,最后调用 Promise.all 并发上传所有的切片发送合并请求
2. 服务端接收切片并存储,收到合并请求后使用流将切片合并到最终文件
3. 原生 XMLHttpRequest 的 upload.onprogress 对切片上传进度的监听
4. 使用 Vue 计算属性根据每个切片的进度算出整个文件的上传进度
断点续传
- 原理
 断点续传的原理在于前端/服务端需要记住已上传的切片,这样下次上传就可以跳过之前已上传的部分,有两种方案实现记忆的功能
前端使用 localStorage 记录已上传的切片 hash
服务端保存已上传的切片 hash,前端每次上传前向服务端获取已上传的切片
第一种是前端的解决方案,第二种是服务端,而前端方案有一个缺陷,如果换了个浏览器就失去了记忆的效果,所以这里选后者
1. 使用 spark-md5 根据文件内容算出文件 hash
生成 hash
无论是前端还是服务端,都必须要生成文件和切片的 hash,之前我们使用文件名 + 切片下标作为切片 hash,这样做文件名一旦修改就失去了效果,而事实上只要文件内容不变,hash 就不应该变化,所以正确的做法是根据文件内容生成 hash,所以我们修改一下 hash 的生成规则
webpack 的产物 contenthash 也是基于这个思路实现的
这里用到另一个库 spark-md5,它可以根据文件内容计算出文件的 hash 值
另外考虑到如果上传一个超大文件,读取文件内容计算 hash 是非常耗费时间的,并且会引起 UI 的阻塞,导致页面假死状态,所以我们使用 web-worker 在 worker 线程计算 hash,这样用户仍可以在主界面正常的交互
文件秒传
- 通过hash 可以判断服务端是否已经上传该文件,从而直接提示用户上传成功(秒传)
 所谓的文件秒传,即在服务端已经存在了上传的资源,所以当用户再次上传时会直接提示上传成功
文件秒传需要依赖上一步生成的 hash,即在上传前,先计算出文件 hash,并把 hash 发送给服务端进行验证,由于 hash 的唯一性,所以一旦服务端能找到 hash 相同的文件,则直接返回上传成功的信息即可
秒传其实就是给用户看的障眼法,实质上根本没有上传
服务端的逻辑非常简单,新增一个验证接口,验证文件是否存在即可
暂停上传
- 通过 XMLHttpRequest 的 abort 方法暂停切片的上传
 讲完了生成 hash 和文件秒传,回到断点续传
断点续传顾名思义即断点 + 续传,所以我们第一步先实现“断点”,也就是暂停上传
原理是使用 XMLHttpRequest 的 abort 方法,可以取消一个 xhr 请求的发送,为此我们需要将上传每个切片的 xhr 对象保存起来,我们再改造一下 request 方法
恢复上传
- 上传前服务端返回已经上传的切片名,前端跳过这些切片的上传
 之前在介绍断点续传的时提到使用第二种服务端存储的方式实现续传
由于当文件切片上传后,服务端会建立一个文件夹存储所有上传的切片,所以每次前端上传前可以调用一个接口,服务端将已上传的切片的切片名返回,前端再跳过这些已经上传切片,这样就实现了“续传”的效果
而这个接口可以和之前秒传的验证接口合并,前端每次上传前发送一个验证的请求,返回两种结果
- 服务端已存在该文件,不需要再次上传
- 服务端不存在该文件或者已上传部分文件切片,通知前端进行上传,并把已上传的文件切片返回给前端
 所以我们改造一下之前文件秒传的服务端验证接口
xxxxx导入财务以及销售报表–大文件上传以及断点续传
大文件上传
- 将大文件转换成二进制流的格式
- 利用流可以切割的属性,将二进制流切割成多份
- 组装和分割块同等数量的请求块,并行或串行的形式发出请求
- 待我们监听到所有请求都成功发出去以后,再给服务端发出一个合并的信号
断点续传
- 为每一个文件切割块添加不同的标识hash
- 当上传成功的之后,服务器记录上传成功的标识 
- 下次继续上传的时候从服务端获取已经上传的文件分片hash 下次上传的时候不需要上传这个分片
- 当我们暂停或者发送失败后,可以重新发送没有上传成功的切割文件
- 最后全部上传成功还是给服务端发出一个合并的信号–服务器可以清除所有的分片
- 这里存在服务器临时存储分片文件过多占用磁盘过大的问题–所以可以设置过期时间定期清除过期的分片 避免资源浪费
参考文章
字节跳动面试官:请你实现一个大文件上传和断点续传